网文 | 我不担心ChatGPT抢我饭碗,但我担心那件更要命的事

来源:微信 中国人的下一代,会因它而提前过时么? 聊聊最近很火的ChatGPT的事儿 。 这两天,美国人开发的“会聊天的机器人”ChatGPT非常火爆,很多人惊叹于这款人工智能的“能侃”——给它个题目,它能很快回给你一篇小作文,且语言风格、叙述逻辑都不像之前的AI那样生硬了,粗略一聊,好像真的是一个人写的。 甚至还有人逗闷子,让ChatGPT模仿一些大V写稿。比如要求ChatGPT在论述某命题作文时,每段前面都加上“老胡觉得”“老胡还觉得”。很多人试过以后说,基本看不出它和正主写的有啥区别…… 于是也有朋友跑我这儿来打趣,说:“小西,你担不担心ChatGPT再发展发展,把你饭碗也给抢了啊?”对这种问题,我一般都回答“我不担心,但我很担心一些更要命的事。” 下面我就单开一篇文章,谈谈这个问题: 1 其实说起人工智能,我大学刚毕业那会儿曾经是这项技术的狂信徒,信仰到工作了很多年我都没学车——因为那会儿自动驾驶被炒的很火,我经常幻想,再过上几年,这项技术再来个重大突破。驾驶座就被智能AI接管了,那我费劲巴力的考驾照还有啥用?我又不擅长这个。 可是后来有次跟相关专业的一位朋友聊天,他一句话就改变了我的想法。我那位朋友是这么说的:“小西,车还是要学啊,可预见的未来,AI永远不可能代替人类把方向盘——因为“电车难题”无法解决。”我一听这话就醒悟了 ,乖乖的去把驾照给考了——虽然前后挂了六次才过。 电车难题是什么呢?给没听过的朋友再解释两句。 这个问题最早是由英国当代哲学家菲利帕.福特在讨论堕胎问题时首先提出的。它的经典表述是这样的: 说一辆电车在轨道上行驶,在它前面的轨道上被绑着五个人,可是电车刚好失控了,停不下来,眼看就要把这五个人给碾死。这时,你刚好站在电车轨道的操纵杆旁边。只要你拉下操纵杆,列车就会切换到备用轨道上去。可是,备用轨道上也有人被绑着,不过只有一个人。那么问题来了:这个操纵杆,你是拉还是不拉呢? 电车难题问世以来,引发很多伦理学和法理学的讨论。功利主义和自由主义在拉不拉操纵杆这个问题上争的面红耳赤,但这个问题我们全切放在一边,有机会再聊。这里只说一个争到最后各方都认的共识——那就是,人是要为自己的选择负责的。 在现实当中,如果有一个人面临类似的两难抉择——比如“你妈和你媳妇掉水里,你救谁?”无论他最终的选择是什么,他人或者他自己的良心一定会不自觉的追问:我为什么当时要这么选?他必须说出一个所以然来。才能说服自己过去这个坎。 所以从这角度讲,人要为自己的选择负责,也只有人才可以为自己的选择负责。很多高阶的判断问题,如果涉及到伦理、道德、审美,无法被自动化的原因,就是它其实怎么选都对,怎么选也都错,只有当人类面临那个场景,自己做这个判断时,属于他的、能够让他安心的“正确答案”才会被揭晓。 明晰了这一点,我们再去看自动驾驶这种人工智能代替人类的难点。就会发现它就卡在这里——在驾驶这个场景中 ,很多时候是会面临类似的电车难题的。比如,很多交通事故发生在车辆高速行使过程当中,前方突然出现人或者动物横穿马路。在这种情况下,很多司机会下意识的打方向盘,而结果有时会是车辆失速侧翻,他要躲避的那个人没事,但开车者和他的亲友车毁人亡。 那么好了,假如人工智能发展到可以完全替代人类进行汽车驾驶,需要为这种场景进行判断。请问这个判断程序怎么写? 人工智能也许可以通过模拟运算,算出作出规避动作后,马路上的行人幸存概率增加,而司机的幸存概率骤减。而如果直接撞过去,行人八成就没命了,但司机可以幸存。但人工智能真的可以代替驾驶者做“直接开过去”这种选择么?这个选择是要承担日后的法律、道德追问的。 如果允许人工智能代做判断,抛开它将违反机器人不得伤害人类的“阿西莫夫定律”不谈,它也相当于让驾驶者逃离了这个必做选择的场景。最终这类事件会产生一种“无人负责”的荒诞悖论。这种悖论,甚至哪怕让驾驶者在事先预设好自己的偏好判断也无法规避。 比如一个人可以预先设想自己在高速行使中即便看到他人横穿马路也会为了自己保命而直接冲过去,可是事关临头,如果那个人是孕妇、老人、孩子,或者是他的家人、爱人,他的选择也许就不一样了。 很多事情,不事关临头,人类就是不知道自己的选择会是什么。这就是人性。 人工智能永远无法复制人性的根本原因,不在于它能否深度模仿人类的思维,而在于它不能代替人进行这种判断。由此我们想到《圣经》里那个故事——亚当和夏娃,因为偷吃禁果而受了神的厌弃与恐惧,被赶出了伊甸园 ,成为了真正的人。 但这个“禁果”是什么呢?《圣经》的原文当中管它叫“知善恶果”,但有些翻译当中,也会将其称为“智慧果”。其实你仔细想想,这两个意思是想通的——人类思维中最核心的东西,是什么?不就是知善恶、明是非、做判断么?当人 有能力作出一个“怎么选都对,怎么选都错”的价值判断 ,并为这个判断负责时,他才是个人。而就像《圣经》中的上帝不想让人具有这种自主意识一样,人类一定会避免人工智能拥有这个能力,否则就真的要上演《我,机器人》了。 于是我们得到结论,那些要做价值判断的工作,人类永远无法放手让机器人代劳。开车如此 ,写文章就更如是了。 2 实不相瞒,为了写这篇稿子,我还真的专门去跟ChatGPT聊了聊,聊的过程中我也在反思——作为一个码字者,我写一篇文章,它对读者价值究竟在哪里?这些价值有可能被ChatGPT这种AI代替么?反思后我发现,一篇文章,至少有三层价值。 第一是“知识价值”,也就是谈一件事,我要告诉你这件事是怎么回事、相关有什么数据、史料,把这些东西打包汇总给读者,给读者以开拓视野的作用。 这一层的价值,ChatGPT确实已经可以部分做到了,聊天过程当中你问它一个什么什么事,它能这件事的前因后果很准确、客观且较有条理提供给你,这种能力甚至已经超越了人类写作者。 但我之所以说,即便提供知识价值,ChatGPT也只能部分做到,是因为我发现它尚没有的“深度联想”能力——谈一件事,它就只能给你就事论事的说这件事,像这篇文章那样,从人工智能聊到电车难题、再想到《圣经》,这种开脑洞的创新性联想,它是不具备的。 于是你就会发现一个问题——跟这家伙聊天不“有趣”,人类思维的有趣,其实是建立在对多种知识的“通感”之上的。 “绿杨烟外晓寒轻,红杏枝头春意闹。”“桃花潭水深深千尺,不及汪伦送我情。”“春意”和“闹”之间,友情和水深之间,本来是没有逻辑联系的,但人类的思维就是能通过这种合理的“大脑短路”将其构建联系。我总认为这就是思维乐趣。 而这样的知识放飞自我又合情合理的铺展、蔓延,我在ChatGPT写的文章中是看不到的,AI能否通过深度学习或算法演进达成这种“通感”式的联想,我对此持保留态度。 第二是“情绪价值”,读我文章常了的朋友会知道,我写文章是喜欢做情绪表达的,评论事情并非单纯的平铺直叙,有些事让我开心,有些事引我调侃,有些事激我愤怒,有些事令我沉思。嬉笑怒骂之于文章,恰似酸甜苦辣之于菜肴。光有知识没有情绪的文章,如同只有营养没有味道的菜,至少我是不喜欢读的。 而情绪这个东西,目前的人工智能还很难模仿,即便能进行模仿,跟ChatGPT这种机器人聊天,那种感觉也有点像跟硅胶娃娃谈恋爱——她可能各方面都能满足你的需求,但归根结底,你会觉得味道是不对的,因为你知道对面那个东西,是个没有生命的死物,它的情绪只是用一堆机械或计算架构模拟出来的。在新奇感消失之后,就什么都没有了。 谈到这里,我们不得不解析一个问题:情绪这种东西的本质是什么? 在我看来,它其实也是一种人类才能作出的取舍和判断。 因为与知识的联想与通感需要跨界调动不同的知识体系刚好相反,情绪的产生与共鸣,其实恰恰来源于我们选择性的关闭一部分认知甚至常识。 比如愤怒,《满江红》的名句“壮士饥餐胡虏肉,笑谈渴饮匈奴血。”读来让人很提气。但如果你真的较真,吃人肉、喝人血这种事情是很践踏常识、甚至恐怖的事情,这么写和儒家痛斥的“率兽食人”的区别究竟在哪里呢?作者为什么在这里可以屏蔽这部分常识,却依然让人共情呢? 这就说明人类在作出“愤怒”这个简单动作的背后,做了非常复杂的伦理取舍与判断,我们选择性的关闭了一些认知。于是愤怒的情绪才能表达出来,并激发人共情。 同样认知屏蔽,在“戏谑”、“悲伤”、“快乐”当中也会发生,AI无法自主模仿和使用这些情绪,与它无法处理“电车难题”一样,也是因为它无法主动选择在什么时候关闭什么认知。 它只能在你让它讲笑话时讲个笑话、让它表现愤怒时愤怒,让它唱首赞歌的时候唱赞歌。 于是我们就讨论到了文章价值中最重要的第三层:“判断价值”。 是的,对于一篇文章,判断是有价值的,而且是最高的价值。在跟ChatGPT聊天的时候,你会发现一个有趣的现象:一旦你问它如何评价一些敏感的历史人物,或者怎样评价“少数族裔”“同性恋”“堕胎”等问题时,该AI立刻丢弃原本尽力模仿人类聊天的那种风格,告诉你的本AI只是聊天工具,无法对该类争议问题作出评述。 在我看来,ChatGPT这样说,并不是开发者为了明哲保身,故意不谈敏感话题。而是因为这类话题谈到最后,往往都涉及“电车难题”式的取舍与判断,所以无法交给AI去做 。 比如谈到堕胎,你是尊重母亲的选择权还是婴儿的生命权?谈到英雄,你是赞赏他对历史车轮的推动,还是看重那些被车轮碾碎的个体?谈到经济模式,面对同样的经济困局和数据,你是赞同凯恩斯还是哈耶克?…… 凡此种种,想说出个所以然,你必须首先把一些“电车难题”式判断做了。而这一点,恰恰是AI没有办法进行的,如前所述,除非AI真的像伊甸园的亚当与夏娃一样获得了知善恶、行判断的能力,否则它永远无法写这样的文章。而如果AI达成这一点,就意味着它获得了自主意识。那我们的问题,可就不是司机或作家会不会被砸饭碗这么简单了。 … Continue reading 网文 | 我不担心ChatGPT抢我饭碗,但我担心那件更要命的事